Medizin der Zukunft: Welchen Rahmen braucht KI?

Vor einigen Jahren ein Algorithmus vorgestellt, der die Diagnose von Hautkrebs erleichtern soll. Es zeigte sich, dass die Ergebnisse ebenso gut waren, wie klassische Diagnosen durch Fachärzte. Credit: Unsplash

Künstliche Intelligenz revolutioniert die Medizin. Doch Ärzte und Entwickler müssen sich auch mit den Risiken auseinandersetzen: Das FRAIM-Projekt will Antworten finden.

Ein Gastbeitrag von Prof. Bert Heinrichs und Anna Geiger - Institut für Neurowissenschaften und Medizin: Gehirn und Verhalten (INM-7) am Forschungszentrum Jülich.

Künstliche Intelligenz (KI) ist längst keine Science-Fiction mehr. Nahezu unbemerkt ist sie inzwischen in unzähligen Bereichen Teil unseres Alltags geworden. Anwendungen, die KI nutzen, begegnen uns etwa in Programmen, die Produktionsprozesse bei der Arbeit optimieren, oder in Form von Empfehlungsalgorithmen, über die uns Streamingdienste Filme vorschlagen. Auch in der Medizin hat KI längst Einzug gehalten. Weltweit wird daran gearbeitet, personalisierte Diagnosen zu verfeinern und zu beschleunigen sowie Behandlungsempfehlungen zu personalisieren. Viele Experten sind sogar überzeugt, dass KI in der Medizin schon bald eine echte Revolution herbeiführen könnte. Denn mit ihren großen Datenmengen und ihrer Nähe zur Wissenschaft ist die Medizin geradezu prädestiniert für den Einsatz von KI.

Der Einsatz von KI in der Medizin birgt auch vielfältige Risiken. Wer ist für Fehldiagnosen verantwortlich? Und wie sicher sind sensible Gesundheitsdaten?

Prof. Bert Heinrichs

Prof. Bert Heinrichs, Forschungszentrum Jülich

Bert Heinrichs ist Professor für Ethik und angewandte Ethik am Institut für Wissenschaft und Ethik (IWE) der Universität Bonn und Leiter der Forschungsgruppe "Neuroethik und Ethik der KI" am Institut für Neurowissenschaften und Medizin: Brain and Behaviour (INM-7) am Forschungszentrum Jülich. Er studierte Philosophie, Mathematik und Pädagogik in Bonn und Grenoble. Er erwarb seinen MA im Jahr 2001, promovierte 2007 und habilitierte sich 2013. Vor seiner jetzigen Position war er Leiter der wissenschaftlichen Abteilung des Deutschen Referenzzentrums für Ethik in den Biowissenschaften (DRZE). Er arbeitet zu Themen der Neuroethik, Ethik der KI, Forschungsethik und Medizinethik. Außerdem interessiert er sich für Fragen der zeitgenössischen Metaethik.

So wurde schon vor einigen Jahren ein Algorithmus vorgestellt, der die Diagnose von Hautkrebs erleichtern soll. Ein Bild von einer verdächtigen Hautveränderung, das man mit seiner Smartphone-Kamera aufnimmt, kann mithilfe eines KI-Modells analysiert werden. Es zeigte sich, dass die Ergebnisse ebenso gut waren, wie klassische Diagnosen durch Fachärzte. Die KI-basierte Diagnose war aber natürlich viel schneller und billiger. Wichtiger noch: Sie könnte auch Menschen zur Verfügung gestellt werden, die in Regionen leben, wo nur wenige Fachärzte verfügbar und Termine entsprechend rar sind.

Viele ungelöste Fragen

Doch der Einsatz von KI in der Medizin birgt auch vielfältige Risiken. Das Beispiel der Hautkrebsdiagnose macht dies deutlich. Eine erste Version des Systems wies Fehler auf, die auf Markierungen auf Bildern in den Trainingsdaten zurückzuführen waren. Außerdem zeigte sich, dass das System für bestimmte Hauttypen sehr viel verlässlicher funktionierte als für andere. Auch dies lag an den Trainingsdaten – genauer gesagt daran, dass bestimmte Gruppen darin weniger gut repräsentiert waren als andere. Und es gibt noch mehr Fragen, die sich hier stellen: Wer ist etwa für Fehldiagnosen verantwortlich? Und natürlich: Wie sicher sind sensible Gesundheitsdaten in einem solchen System? Schließlich: Wer hat darauf Zugriff und wozu dürfen sie genutzt werden?

Anna Geiger

Anna Geiger, Forschungszentrum Jülich

Anna Geiger hat Neuropsychologie an der Universität Maastricht studiert und arbeitet seit 2018 als wissenschaftliche Koordinatorin am Institut für Neurowissenschaften und Medizin (INM-7; Gehirn und Verhalten) im Forschungszentrum Jülich. Sie fungiert hier als Schnittstelle zwischen Administration und Wissenschaft, übernimmt Koordinations- und Managementaufgaben und ist im Bereich der Wissenschaftskommunikation tätig.

Um einen verantwortungsvollen Umgang mit KI in der Medizin zu gewährleisten, müssen diese und weitere ethische, rechtliche und soziale Fragen parallel zur technischen Entwicklung bearbeitet werden. Das Forschungszentrum Jülich hat deshalb am Institut für Neurowissenschaften und Medizin das Projekt “FRAIM. Jenseits reiner Performanz: ein ethischer Rahmen für die Nutzung von KI in der Neuromedizin” ins Leben gerufen. Es ist ein interdisziplinäres Verbundprojekt, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird und an dem Partner aus den Bereichen Neurowissenschaften, Psychologie, Ethik und Recht der Universitäten Düsseldorf und Bonn beteiligt sind. Ihr gemeinsames Ziel ist es, einen Rahmen für die Bewertung von KI-Verfahren, die in der medizinischen Diagnostik und Entscheidungsfindung angewendet werden, bereitzustellen.
 
Empirische Untersuchungen zur Akzeptanz von KI

Bislang weiß man zu wenig darüber, welche Faktoren dazu führen, dass Ärzte wie auch Patienten der Nutzung von KI in der Medizin vertrauen. Im Rahmen von FRAIM führen die Forschenden daher Umfragen, Experten-Interviews sowie sogenannte Fokusgruppen durch: Was denken Betroffene über den Einsatz von KI in der Gesundheitsversorgung? Welche Bedenken haben sie? Welche Hoffnungen? Welche Faktoren beeinflussen das Vertrauen in KI-Technologien? So wollen sie ein umfassendes Bild über die Sichtweise all jener erhalten, die vom Einsatz von KI in der Medizin betroffen sind. Die Ergebnisse wird FRAIM auswerten und am Ende des Projekts veröffentlichen. Entwickler können diese Analysen dann nutzen, um ihre KI-Anwendung so zu gestalten, dass sie von der Gesellschaft akzeptiert werden.

Ethik und Recht

Darüber hinaus stellen sich beim Einsatz von KI in der Medizin aber auch zahlreiche ethische und rechtliche Fragen, die schon bei der Entwicklung berücksichtigt werden sollten. Bei etablierten Konzepten wie Autonomie, Verantwortung, Zurechenbarkeit und Haftung muss überprüft werden, ob sie angesichts der neuen Technologie Bestand haben oder womöglich Revisionen nötig sind: Wie beeinflusst KI die Autonomie von Ärzten und Patienten? Welchen Einfluss hat sie auf die Arzt-Patient-Beziehung? Inwieweit kann Verantwortung an KI-Tools delegiert werden? Um hier Klarheit zu schaffen, erstellt das FRAIM-Projekt einen Überblick über die aktuelle ethische Debatte zur medizinischen KI und arbeitet an Lösungen, die eine verantwortungsvolle Nutzung von KI in der Medizin ermöglichen sollen. Die Rechtsexperten von FRAIM nehmen dafür Rechtsbereiche wie das Medizinprodukterecht, die Datenschutz-Grundverordnung und das ärztliche Berufsrecht unter die Lupe und überlegen: Müssen sie angepasst werden und, falls ja, wie könnten neue Regelungen aussehen?  

Das FRAIM-Projekt läuft voraussichtlich noch bis ins Jahr 2025. Am Ende soll mehr als nur eine Reihe von einzelnen Erkenntnissen stehen, die für verschiedene Fachcommunities von Interesse sind. Stattdessen werden die Ergebnisse der empirischen, ethischen und rechtlichen Teilprojekte zusammengetragen und aufeinander bezogen. So soll am Ende von FRAIM ein theoretisch fundierter und empirisch abgesicherter Rahmen für die Bewertung des Einsatzes von KI-basierten Verfahren in der medizinischen Diagnostik und Entscheidungsfindung entstehen. Dieses Werk wird nicht nur eine Hilfe für Forschende, Entwickler und Mediziner sein, es soll auch Politik und Gesellschaft bei der Auseinandersetzung mit den neuen Technologien unterstützen. So will FRAIM dazu beitragen, dass die großen Chancen, die mit dem Einsatz von KI in der Medizin zweifellos verbunden sind, verantwortungsvoll genutzt werden können.
 

www.fraim-projekt.de/

Alternativ-Text

Newsletter bestellen